针对直肠癌目标靶区在磁共振成像(MRI)图像的大小、形状、纹理和边界清晰程度不同等问题,为了克服患者之间的个体差异性并提高分割精度,提出一种基于邻近切片注意力融合的直肠癌分割网络(ASAF-Net)。首先,使用高分辨率网络(HRNet)作为主干网络,并在特征提取过程始终保持高分辨率特征表示,以减少语义信息和空间位置信息的损失;其次,通过邻近切片注意力融合(ASAF)模块融合并增强相邻切片之间的多尺度上下文语义信息,使网络能够学习相邻切片之间的空间特征;最后,在解码网络使用全卷积网络(FCN)和空洞空间金字塔池化(ASPP)分割头协同训练,并通过添加相邻切片间的一致性约束作为辅助损失缓解训练过程中出现的相邻切片差异过大的问题。实验结果表明,与HRNet相比,ASAF-Net在平均交并比(IoU)、平均Dice相似系数(DSC)指标上分别提升了1.68和1.26个百分点,平均95%豪斯多夫距离(HD)降低了0.91 mm。同时,ASAF-Net在直肠癌MRI图像多目标靶区的内部填充和边界预测方面均能实现更好的分割效果,有助于提升医生在临床辅助诊断中的效率。
针对超声心动周期序列图的腔室自动分割过程中,弱边缘轮廓难以有效提取的问题,提出一种基于加速健壮特征(SURF)拟合算法和Chan-Vese模型的超声图像腔室分割方法。首先对序列中第一帧图像进行人工标记弱边缘轮廓;然后,提取弱边缘轮廓周围的SURF点,建立Delaunay三角网;接着,通过相邻两帧之间的特征点匹配,预测后续帧的弱边缘轮廓;之后,用Chan-Vese模型提取粗糙轮廓;最后采用区域生长算法得到精确的目标轮廓。实验结果表明,该算法能较好地完整提取超声序列图像中含弱边缘的腔室轮廓,并且与专家手动分割结果相近。
针对高清立体视频序列分辨率大、宏块信息量少以及网络传输易出现差错的特点,提出一种能够估计高清立体视频端到端传输的失真模型。该模型能够考虑到丢包对后续帧的错误扩散以及立体视频左右视点帧之间的时空相关性,采用递归算法准确地估计失真,并运用时域帧拷贝的错误隐藏方法降低解码端的复杂度。仿真结果表明,失真模型的平均预测误差能控制在6%以内,对于不同特性和分辨率的立体视频序列,在不同网络环境下传输失真估计均有一定的适用性。